تحقيق الجارديان يهز جوجل: حذف ملخصات ذكاء اصطناعي بعد تضليل طبي قد يهدد حياة المرضى
في تطور لافت يسلط الضوء على مخاطر الاعتماد غير المنضبط على الذكاء الاصطناعي في المجال الصحي، كشفت صحيفة الجارديان البريطانية عن اضطرار شركة جوجل إلى إزالة عدد من ملخصات البحث الصحية المعتمدة على الذكاء الاصطناعي، بعد ثبوت احتوائها على معلومات طبية غير دقيقة، قد تؤدي إلى قرارات علاجية خاطئة وتعرّض حياة المستخدمين للخطر.
التحقيق، الذي أجرته الصحيفة، كشف أن خدمة Google AI Overviews—التي تهدف إلى تقديم إجابات سريعة ومختصرة للمستخدمين—عرضت في بعض الحالات بيانات صحية مضللة، خاصة فيما يتعلق بنتائج التحاليل الطبية الحيوية، دون تقديم السياق العلمي أو الطبي اللازم لفهمها بشكل صحيح.
معلومات مختصرة.. لكن مضللة
ورغم تأكيد جوجل المتكرر أن ملخصات الذكاء الاصطناعي الخاصة بها “موثوقة” و”مفيدة”، أظهر التحقيق أن هذه الملخصات قد تكون خطيرة عندما تتعامل مع موضوعات حساسة مثل الصحة، إذ تعتمد على عرض أرقام ونتائج عامة، دون مراعاة الفروق الفردية بين المرضى أو تعقيدات التشخيص الطبي.
وأشار التقرير إلى أن بعض هذه الملخصات ظهرت في أعلى نتائج البحث، ما يمنحها مصداقية زائفة لدى المستخدمين، ويدفعهم للاعتماد عليها بدلًا من استشارة الأطباء أو المختصين.
اختبارات الكبد في قلب الأزمة
واحدة من أخطر الحالات التي رصدها التحقيق، تعلقت بعرض جوجل معلومات غير دقيقة حول النطاقات الطبيعية لاختبارات وظائف الكبد. فعند البحث عن المعدلات الطبيعية لتحاليل الكبد، ظهرت أرقام كثيرة دون شرح كافٍ أو مراعاة عوامل أساسية مثل العمر، والجنس، والحالة الصحية، وهو ما وصفه خبراء بأنه “مضلل وخطير”.
وأكد مختصون أن هذه الطريقة في عرض النتائج قد تدفع مرضى يعانون من أمراض كبدية خطيرة إلى الاعتقاد بأن حالتهم مستقرة، لمجرد أن أرقام التحاليل تبدو “طبيعية” وفقًا لما عرضه الذكاء الاصطناعي، ما قد يؤدي إلى إهمال المتابعة الطبية اللازمة.
تحرك من جوجل بعد تصاعد الانتقادات
عقب نشر التحقيق، سارعت جوجل إلى حذف ملخصات الذكاء الاصطناعي المرتبطة بعبارات بحث محددة تتعلق بتحليل وظائف الكبد، في محاولة لاحتواء الانتقادات المتصاعدة.
وقال متحدث باسم الشركة إن جوجل تعمل باستمرار على تحسين جودة هذه الملخصات، خاصة في الحالات التي تفتقر فيها المعلومات إلى السياق الكامل، مؤكدًا أن الشركة تتخذ إجراءات تصحيحية وفق سياساتها الداخلية عند الضرورة.
خبراء يحذرون: الخطر لم ينتهِ بعد
ورغم الترحيب بخطوة الحذف، حذرت منظمات طبية وخبراء صحة من أن المشكلة لا تزال قائمة، إذ يمكن للملخصات المضللة أن تعود للظهور عند استخدام صيغ بحث مختلفة أو مصطلحات طبية بديلة.
وأكدت جهات معنية بصحة الكبد أن فهم نتائج التحاليل الطبية عملية معقدة لا يمكن اختزالها في أرقام مجردة، محذرة من أن الاعتماد على الذكاء الاصطناعي في هذا السياق قد يمنح المرضى شعورًا زائفًا بالأمان، بينما تتطلب حالتهم تدخلاً طبيًا عاجلًا.
الذكاء الاصطناعي بين الفائدة والخطر
القضية أعادت فتح النقاش حول حدود استخدام الذكاء الاصطناعي في المجالات الحساسة، وعلى رأسها الصحة، وسط مطالبات بفرض ضوابط أكثر صرامة، تضمن ألا تتحول الأدوات الذكية من وسيلة للمساعدة إلى مصدر محتمل للخطر.
وفي ظل التوسع المتسارع في استخدام الذكاء الاصطناعي، يبقى السؤال مطروحًا:
هل يمكن الوثوق بإجابات سريعة عندما يكون الأمر متعلقًا بصحة الإنسان؟






